期刊
  出版年
  关键词
结果中检索 Open Search
Please wait a minute...
选择: 显示/隐藏图片
1. 融合BERT与标签语义注意力的文本多标签分类方法
吕学强, 彭郴, 张乐, 董志安, 游新冬
《计算机应用》唯一官方网站    2022, 42 (1): 57-63.   DOI: 10.11772/j.issn.1001-9081.2021020366
摘要1406)   HTML72)    PDF (577KB)(1235)    收藏

多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一。针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT。首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量表示;然后,使用长短期记忆(LSTM)神经网络将标签进行单独编码;最后,利用注意力机制显性突出文本对每个标签的贡献,以预测多标签序列。实验结果表明,与基于序列生成模型(SGM)算法相比,所提出的方法在AAPD与RCV1-v2公开数据集上,F1值分别提高了2.8个百分点与1.5个百分点。

图表 | 参考文献 | 相关文章 | 多维度评价